5 - Der unstillbare Hunger nach Rechenleistung: 25 Jahre High Performance Computing am RRZE [ID:9250]
50 von 1265 angezeigt

Willkommen zum Jubiläumsvortrag in der Reihe 50 Jahre RACD und heute ist das Thema der

unstillbare Hunger nach Rechenleistung 25 Jahre High Performance Computing am RACD.

Mein Name ist Jan Eitzinger und der Plan ist folgender, wir sind ja eine Bildungseinrichtung

irgendwo oder gehören wenigstens zu einer Bildungseinrichtung, deswegen habe ich mir

gedacht, muss der Vortrag auch ein bisschen Content vermitteln. Der Vortrag wirkt praktisch

ein Abriss für jemanden, der noch nie was von Rechenarchitektur gehört hat, über Rechenarchitektur

und wirklich von den Beginnen bis heute auf einem Niveau, wo ich hoffe, dass das jeder

versteht und auch die, die sich auskennen, nicht gelangweilt sind und da eingestreut

werden immer wieder Rechner in unserer 25-jährigen Historie am RACD. Also welche Architekturen

hatten wir hier, wie ordnen die sich in die Rechenarchitektur ein und wie war so die Entwicklung?

Also das ist der Plan und noch ein paar Anekdoten zwischendrin von Sachen, die hier so passiert

sind um das Thema HPC. Okay, dann starten wir mal durch. Die erste Folie ist natürlich

die Top 500 Liste. Wenn man von HPC in der Öffentlichkeit was mitkriegt, dann ist es

die Top 500 Liste. Was sagt diese Liste aus? Die plottet über die Jahre, zweimal im Jahr

wird sie veröffentlicht auf zwei Konferenzen, eine in den USA, eine in Deutschland. Die

Performance von einem bestimmten Benchmark, das ist ein arithmetisch rechenlimitierter

Benchmark, LINPACK heißt der, da gibt es immer große Diskussionen, ob das aussagekräftig

ist, aber das wird nicht diskutiert. Das Ding ist Gesetz und wer da drin steht, ist schnell

und gut. Das ist logarithmisch hier, das ist ganz wichtig, weil HPC, da ging es immer

darum, dass man exponentielles Wachstum hat, das war immer das, was so propagiert wurde

und an die Öffentlichkeit gebracht wurde. Man sieht, das hat auch lange Zeit ganz gut

hingehauen, seit 2010, 2012 sieht man aber hier schon so gewisse Tendenzen und logarithmisch

sieht man das nicht so gut, aber das flacht ab. Wir werden in dem Vortrag darauf eingehen,

warum das abflacht. Hier rechts sehen Sie eine Liste von allen Systemen der letzten

25 Jahre. Wirklich interessant wurde es eigentlich hier, die Convex war auch in den Top 500,

aber die habe ich jetzt mal rausweggelassen. Das erste System, was wir hier hatten, war

die VPP. Am Anfang war das Rechenzentrum praktisch gedacht als Zulieferer zum LAZ, das LAZ hat

da immer HPC Ressourcen und die Idee war, dass hier in Erlangen eine ähnliche Maschine

wie am LAZ in Garching ist, sodass die Leute darauf vorbereitet werden und dann der Übergang

nach München reibungslos vonstatten geht. Zu dem Zeitpunkt war im LAZ eine Fujitsu VPP

600, das war ein Vector-Rechner und dementsprechend hat Erlangen eine kleinere Version davon

eine VPP 300 bekommen und das hat damals, das war ja noch die Frühzeit der Top 500-Liste,

ich weiß nicht, ab wann gibt es die? 94 glaube ich, 94, 344, das ist auch immer so die Hausnummer,

wo wir immer so eingestiegen sind. Die Linien, die man hier sieht, die unterste Linie ist

der letzte Platz, dann der mittlere ist die Nummer 1 und die grüne Linie hier oben, das

ist die aggregierte Leistung der ganzen Liste. Jetzt kann man sich denken, 344 und wir kratzen

hier unten am Platz 500 rum, wie kommt denn das? Das ist natürlich nicht linear verteilt,

sondern ich sage mal die letzten 2, 300, die sind sehr eng beieinander, weil die halt,

mit dieser Leistung gibt es dann halt einfach wahnsinnig viele und deswegen fällt man dann

auch sehr schnell aus der Liste raus, weil es eben schon so viele gibt, die vielleicht

nur ein kleines bisschen langsamer sind und das nicht mehr auf die Liste geschafft haben.

Also wir sind hier eingestiegen 1997 mit der VPP 300, dann war der nächste Rechner eine

Convex SPP 1000, das war ein klassischer RISC SMP-System, die war, ich glaube die war auch

in der Liste, aber ich habe sie hier nicht reingeschrieben. Dann das nächste größere

System, das etwas höher eingestiegen war, war der Transtec Cluster. Die Rechner hier

davor, das waren so richtige HPC Architekturen und was ich damit meine ist, dass das Architekturen

waren, die wirklich dediziert für HPC entworfen und konstruiert waren. Der Transtec Cluster

war das erste Mal ein System, wie nennt man das, BioWolf oder vom Laster gefallen, Standard-Server,

ganz viele davon mit einem Netzwerk zusammengeschustert, möglichst günstig und das ist eigentlich

seitdem das, was wir jetzt haben aus Kostengründen und der Transtec war das erste System hier

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:26:49 Min

Aufnahmedatum

2018-06-07

Hochgeladen am

2018-06-08 01:39:03

Sprache

de-DE

 Das RRZE war schon immer ein wissenschaftliches Rechenzentrum, in dem Forscher alle möglichen Fragestellungen bearbeiten, für die Computer hilfreich sind. Aber erst seit Anfang der 1990er Jahre sind in Erlangen dedizierte Systeme für das „Number Crunching“ verfügbar, deren Architektur speziell auf den Umgang mit großen Datenmengen und anspruchsvollen numerischen Problemen zugeschnitten war. Diese Hochleistungsrechner unterschieden sich deutlich von den damals bereits allgegenwärtigen PCs, die auf und unter jedermanns Schreibtisch zu finden sind. Deswegen, und auch wegen ihrer Unzugänglichkeit in abgeschotteten klimatisierten Rechnerräumen, umgibt diese Supercomputer schon immer ein Hauch des Geheimnisvollen: Wozu braucht man sowas, wer nutzt es, und was kostet es? Dr. Jan Eitzinger wirft historische Schlaglichter auf die Erlanger Superrechner, zeigt ihre Möglichkeiten und Grenzen auf und erklärt, wofür sie von Wissenschaftlern genutzt werden.

 

Tags

core high computing register kommunikation skalierung superskalar prozess knoten speicher systeme cache rrze operationen performance
Einbetten
Wordpress FAU Plugin
iFrame
Teilen